陈佳分享

file queue
example queue的 batch shuffle
入 queue 会shuffle,出queue不shuffle。
出queue锁死

“ops/gen_data_flow_ops.py”, 是C++中load进来的
ops是operations的简写:
An op takes zero or more Tensors, performs some computation, and produces zero or more Tensors.

http://9.186.106.71/dongx/tensorflow/tree/master/tensorflow/cc/ops 是批量生成的 C++自动生成

http://9.186.106.71/dongx/tensorflow/blob/master/tensorflow/core/kernels/random_shuffle_queue_op.cc C++11的lambda表达式

f.OutOfRangeError. This i

epoc 所有epoc过多少轮,,

reader为什么要一次把文件都读完??

reduce_sum 意思是: reduce类似mapreduce,采用sum的方式进行reduce。

tutorials/mnist/beginners

test和validation为什么不放在tf.placeholder,而是放在tf.constant?这两种数据结构有什么本质区别?
因为placeholder是个符号,容器,开始并不直接存入数值。

tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) 这是什么评价指标?
10个类别,y_=[0.1,0.2,0.5,0.8….] tf.argmax(y,1)指的是向量中最大的index,即4.

##cifar10

activation_summary是什么鬼?

loss层的summary

  • merge summary是什么鬼?

  • op是什么鬼? optimization

losses 是多个显卡,多个loss

control dependency,

wanwan组会

不支持scan,需要定长,
theano加mask,
tensorflow必须定长,,
生成batch,

theano没封装到cell,,

:~$

=====basic rnn cell
为什么返回return output, output

====
input output都可以dropout

多个cell拼在一起, stacked RNN

====
ptb是什么鬼?
一个数据库

=====
baket为了防止白算,聚类,

=====
translate是什么鬼?
翻译模型,数据库貌似很大

linear.linear隐藏了 w+b
=====basic lstm cell
多了几个gate而已

=====rnn.py
可以lstm,可以gru,
sequence_length用于batch model。
并未做mask,什么意思?

if sequence_length:
  (output, state) = control_flow_ops.cond(
      time >= max_sequence_length,
      lambda: zero_output_state, lambda: output_state)

=========seq2seq
encoder,
训练过程,
rnn_decoder

class based word prediction, the more class,

(c|history) p(w|c)
p(w|c)是如何定义的??前者信息损失很大,

郭浩 重安装

  • pip install过程中有时会出现问题
  • 下载的安装文件,跑代码是有时跑挂
  • 因此下载源代码,自己编译 安装